Loading...
机构名称:
¥ 1.0

摘要:训练一次性学习模型的一个核心挑战是数据空间中可用样本的代表性有限。特别是在网络神经科学领域,大脑以图形表示,这种模型在对大脑状态(例如,正常与自闭症)进行分类时可能会导致性能低下。为了解决这个问题,大多数现有工作都涉及数据增强步骤,以增加训练集的大小、多样性和代表性。虽然有效,但这种增强方法仅限于生成与输入样本大小相同的样本(例如,从单样本矩阵生成大脑连接矩阵)。据我们所知,从单个大脑图生成大脑多图以捕捉节点对(即解剖区域)之间的多种连接类型的问题仍未解决。在本文中,我们前所未有的提出了一种混合图神经网络 (GNN) 架构,即多图生成器网络或简称 MultigraphGNet,它包含两个子网络:(1)多对一 GNN,将大脑多图输入群体整合到单个模板图中,即连接大脑模板 (CBT),以及 (2) 反向一对多 U-Net 网络,它在每个训练步骤中采用学习到的 CBT 并输出重建的输入多图群体。这两个网络都使用循环损失以端到端的方式进行训练。实验结果表明,与在每个类别的单个 CBT 上进行训练相比,我们的 MultigraphGNet 在增强的大脑多图上进行训练时提高了独立分类器的性能。我们希望我们的框架可以为未来从单个图进行多图增强的研究提供一些启示。我们的 MultigraphGNet 源代码可在 https://github.com/basiralab/MultigraphGNet 获得。

arXiv:2209.06005v1 [q-bio.NC] 2022 年 9 月 13 日

arXiv:2209.06005v1 [q-bio.NC] 2022 年 9 月 13 日PDF文件第1页

arXiv:2209.06005v1 [q-bio.NC] 2022 年 9 月 13 日PDF文件第2页

arXiv:2209.06005v1 [q-bio.NC] 2022 年 9 月 13 日PDF文件第3页

arXiv:2209.06005v1 [q-bio.NC] 2022 年 9 月 13 日PDF文件第4页

arXiv:2209.06005v1 [q-bio.NC] 2022 年 9 月 13 日PDF文件第5页

相关文件推荐